home *** CD-ROM | disk | FTP | other *** search
/ SuperHack / SuperHack CD.bin / CODING / MISC / NUD-1022.ZIP / NUD-1022.TXT
Encoding:
Text File  |  1992-12-09  |  28.7 KB  |  675 lines

  1.  
  2. Neuron Digest   Wednesday,  2 Dec 1992
  3.                 Volume 10 : Issue 22
  4.  
  5. Today's Topics:
  6.                         Re: Beginning references
  7.      Re: begining references on NN for Carl Vettore, Univ. of Verona
  8.               Very Fast Simulated Reannealing version 6.20
  9.                 Position in cognitive psychology - U Mich
  10.                   Postdocs - computational neuroscience
  11.                          Vision postdoc position
  12.  (1) HKP review in neuroprose and (2) NIPS time series workshop program
  13.                NIPS workshop - REAL biological computation
  14.  
  15.  
  16. Send submissions, questions, address maintenance, and requests for old
  17. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  18. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  19. requested by mail will eventually be sent, but may take a while.
  20.  
  21. ----------------------------------------------------------------------
  22.  
  23. Subject: Re: Beginning references
  24. From:    arbib@cs.usc.edu (Michael Arbib)
  25. Date:    Sat, 28 Nov 92 15:39:31 -0800
  26.  
  27. Michael A. Arbib: Brains, Machines and Mathematics, Second Edition,
  28. Springer-Verlag, 1987.  This places connectionism in a historical
  29. setting, introduces some of the main concepts (relatively brief), places
  30. it in the context of theoretical computer science, and includes chapters
  31. on self-reproducing automata and Godel's Incompleteness Theorem (both
  32. proofs and philosophical implications).
  33.  
  34. It's not the best introduction to connectionism as a standalone subject,
  35. but is unrivalled for readers who want a "situated" view of the subject
  36. along the above lines.
  37.  
  38. While advertising my books, I should also put in a word for "The
  39. Metaphorical Brain 2: Neural Networks and Beyond", Wiley-Interscience,
  40. 1989.  The special strength of this relative to other books on
  41. connectionism is that it provides strong links to both Computational
  42. Neuroscience AND Artificial Intelligence.  It also argues for Schema
  43. Theory: using schemas as a coarse-grain methodology for cooperative
  44. computation to complement the fine-grain methodology of neural networks.
  45. It closes with a view of Sixth Generation Computing based on this
  46. multi-level schema/NN methodology.
  47.  
  48. Michael Arbib
  49. Center for Neural Engineering
  50. University of Southern California
  51. Los Angeles, CA 90089-2520, USA
  52. Tel: (213) 740-9220
  53. Fax: (213) 746-2863
  54. arbib@pollux.usc.edu
  55.  
  56.  
  57. ------------------------------
  58.  
  59. Subject: Re: begining references on NN for Carl Vettore, Univ. of Verona
  60. From:    kanal@cs.UMD.EDU (Laveen N. Kanal)
  61. Date:    Sun, 29 Nov 92 10:55:43 -0500
  62.  
  63.  
  64. The two volumes by Maureen Caudill from M.I.T. Press should be a
  65. good place to start. The complete reference is cited in the following
  66. list of refernces for a course/seminar that I am offering next semester.
  67.  
  68.  
  69.  
  70. .ce4
  71. CONNECTIONISTS MODELING OF INTELLIGENT SYSTEMS
  72. .br
  73. CMSC 727, SPRING 1993
  74. .br
  75. Instructor: Laveen Kanal
  76. .br
  77. Time: Tues & Thurs. 5:00 to 6:15 p.m.
  78.        (If feasible, may be changed to meet once a week for
  79.          a longer period at a time convenient to the attendees)
  80.  
  81. This is a graduate course/seminar on Neural Networks and other connectionist 
  82. dynamical systems and hybrid models currently being proposed for the
  83. modeling of intelligent systems for pattern recognition and problem-solving.
  84. The purpose is to introduce some of the theory and applications of such
  85. systems, discuss their role and potential in developing intelligent
  86. artificial systems, their relationships to other areas of A.I. and 
  87. the question of local versus nonlocal representations.
  88. There will be lectures by the instructor, by invited
  89. persons working in these areas, and possibly by some students. 
  90. Students registered for the course will
  91. be expected to do some projects using the suggested lab texts or other
  92. simulators. A mid semester report and a final project/paper will be required
  93. for a grade in the course.
  94.  
  95. Text: Roberto Serra, Gianni Zanarini, COMPLEX SYSTEMS and COGNITIVE PROCESSES
  96.                                       Springer-Verlag, 1990 ISBN 0-387-51393-0
  97.  
  98. Lab. text: Maureen Caudill, Charles Butler, Understanding Neural Networks:
  99.            Computer Explorations, vol.1 & vo2, The MIT Press
  100.            (These volumes cover most of the major NN paradigms in an easy to
  101.             follow manner and  a PC or MAC software diskette is included).
  102.             Vol 1 ISBN 0-262-53099-6 IBM compatible disk included
  103.                    ISBN 0-262-53102-x Macintosh compatible disk included
  104.  
  105.              Vol 2: ISBN 0-262-53100-3 IBM compatible disk included
  106.                     ISBN 0-262-53103-8 Macintosh Compatible disk included
  107.  
  108. Optional lab. text:
  109.             Adam Blum, Neural Networks in C++ , An Object Oriented Approach
  110.             to building Connectionist Systems, John Wiley & Sons, Inc. 1992
  111.             ISBN 0-471-55201-1(book/IBM disk set)
  112.             ISBN 0-471-53847-7(papaerback book only)
  113.  
  114. Useful
  115. Supplementary text:
  116.  
  117.    J.Hertz, A. Krogh, R.C. Palmer, An Introduction to the Theory of Neural
  118.                                    Computation, Addison Wesley, 1991
  119.                                     2nd edition to appear shortly.
  120.  
  121. Supplementary References:
  122.  
  123.    L.N. Kanal, On Pattern, Categories, and Multiple Reality, TR, UMD, 1993
  124.   
  125.    L.N. Kanal & S. Raghavan, Hybrid Systems-A Key to Intelligent Pattern
  126.              Recognition, Proc. IJCNN, 1992.
  127.  
  128.    J. Hendler, Papers on Hybrid Systems 
  129.  
  130.    J.A. Reggia, Papers on Competition-Based Local Processing for Spreading
  131.                Activation Mechanisms in Neural Networks; also Chap.7 in
  132.                Peng and Reggia, Abductive Inference Models for Diagnostic
  133.                Problem-Solving, Springer-Verlag, 1990
  134.  
  135.    Todd C. Moody, PHILOSOPHY & ARTIFICIAL INTELLIGENCE, Prentice Hall, 1993 
  136.                     ISBN  0-13-663816-3     
  137.    
  138.    Satosi Watanabe, PATTERN RECOGNITION: HUMAN & MECHANICAL, John Wiley, 1985
  139.                                       ISBN 0-471-80815-6
  140.  
  141.    Gerald M. Edelman, BRIGHT AIR,BRILLIANT FIRE...On the Matter of the Mind,
  142.                       Basic Books, 1992 . ISBN 0-465-05245-2
  143.  
  144.    George Lakoff, WOMEN, FIRE, and DANGEROUS THINGS--What Categories Reveal
  145.                   About the Mind, Univ. of Chicago Press, 1987
  146.                    ISBN 0-226-46803-8
  147.         
  148.    I.K. Sethi & A.K. Jain (Eds), ARTIFICIAL NEURAL NETWORKS AND STATISTICAL 
  149.                   PATTERN RECOGNITION, North-Holland, 1991
  150.                        ISBN 0-444-88741-5 (paperback)
  151.  
  152.   K. Yasue, M. Jibu, and Karl Pribram, A Theory of Non Local Cortical
  153.      Processing in the Brain, Appendices to K. Pribram, BRAIN & PERCEPTION,
  154.      Lawrence Earlbaum Associates, 1991. ISBN 0-89859-995-4
  155.   
  156.   P.A. Flach, R.A. Meersman (Eds), FUTURE DIRECTIONS IN A.I., North-Holland,
  157.     1991.  ISBN 0-444-89048-3
  158.    
  159.  
  160.   Papers in IEEE Trans. on Neural Networks, the journal Neural Networks,
  161.   Neural Computation, and Proceedings of Conferences on Neural Networks,
  162.   Genetic Algorithms, Complex Systems, and Hybrid Systems.
  163.  
  164.  
  165. Hope this helps.
  166.  
  167. L.K.
  168.  
  169.  
  170. ------------------------------
  171.  
  172. Subject: Very Fast Simulated Reannealing version 6.20
  173. From:    Lester Ingber <ingber@alumni.cco.caltech.edu>
  174. Date:    Mon, 30 Nov 92 07:17:21 -0800
  175.  
  176.            VERY FAST SIMULATED REANNEALING (VFSR) (C)
  177.  
  178.              Lester Ingber ingber@alumni.caltech.edu
  179.                                and
  180.               Bruce Rosen rosen@ringer.cs.utsa.edu
  181.  
  182. The good news is that the people who have gotten our beta version of
  183. VFSR to work on their applications are very pleased.  The bad news is
  184. that because of some blunders made in the process of making the code
  185. user-friendly, the code has to be modified to use as a standalone
  186. function call.  This bug is corrected and some other fixes/changes
  187. are made in version v6.20.
  188.  
  189. This version is now updated in netlib@research.att.com.  It will
  190. eventually find its way into the other NETLIB archives.
  191.  
  192. To access the new version:
  193.  
  194. Interactive
  195.      local% ftp research.att.com
  196.      Name (research.att.com:your_login_name): netlib
  197.      Password: [type in your_login_name or anything]
  198.      ftp> cd opt
  199.      ftp> binary
  200.      ftp> get vfsr.Z
  201.      ftp> quit
  202.      local% uncompress vfsr.Z
  203.      local% sh vfsr
  204.  
  205. Electronic Mail Request
  206.      local% mail netlib@research.att.com
  207.      [mail netlib@ornl.gov]
  208.      [mail netlib@ukc.ac.uk]
  209.      [mail netlib@nac.no]
  210.      [mail netlib@cs.uow.edu.au]
  211.      send vfsr from opt
  212.      ^D [or however you send mail]
  213.  
  214. Lester
  215.  
  216.  
  217.   ||  Prof. Lester Ingber               ingber@alumni.caltech.edu  ||
  218.   ||  P.O. Box 857                                                 ||
  219.   ||  McLean, VA 22101       703-848-1859 = [10ATT]0-700-L-INGBER  ||
  220.  
  221.  
  222. ------------------------------
  223.  
  224. Subject: Position in cognitive psychology - U Mich
  225. From:    zhang@psych.lsa.umich.edu
  226. Date:    Fri, 27 Nov 92 10:12:04 -0500
  227.  
  228. Position in Cognitive Psychology
  229. University of Michigan
  230.  
  231. The University of Michigan Department of Psychology invites applications
  232. for a tenure-track position in the area of Cognition, beginning September
  233. 1, 1993.  The appointment will most likely be made at the Assistant
  234. Professor level, but it is possible at any rank.  We seek candidates with
  235. primary interests and technical skills in cognitive psychology.  Our
  236. primary goal is to hire an outstanding cognitive psychologist, and thus
  237. we will look at candidates with any specific research interest.  We have
  238. a preference for candidates interested in higher mental processes or for
  239. candidates with computational modeling skills (including connectionism).
  240. Responsibilities include graduate and undergraduate teaching, as well as
  241. research and research supervision.  Send curriculum vitae, letters of
  242. reference, copies of recent publications, and a statement of research and
  243. teaching interests no later than January 8, 1993 to: Gary Olson, Chair,
  244. Cognitive Processes Search Committee, Department of Psychology,
  245. University of Michigan, 330 Packard Road, Ann Arbor, Michigan 48104.  The
  246. University of Michigan is an Equal Opportunity/Affirmative Action
  247. employer.
  248.  
  249.  
  250.  
  251. ------------------------------
  252.  
  253. Subject: Postdocs - computational neuroscience
  254. From:    Ken Miller <ken@cns.caltech.edu>
  255. Date:    Sun, 29 Nov 92 06:29:29 -0800
  256.  
  257.  
  258.                       POSTDOCTORAL POSITIONS
  259.                     COMPUTATIONAL NEUROSCIENCE
  260.              UNIVERSITY OF CALIFORNIA, SAN FRANCISCO
  261.  
  262. I will soon be beginning a new lab at UCSF, and anticipate several positions
  263. for postdocs beginning in 1993 and 1994 (prospective graduate students are
  264. also encouraged to apply to the UCSF Neuroscience Program).  The lab will
  265. focus on understanding both development and mature processing in the
  266. cerebral cortex.  Theoretical, computational, and experimental approaches
  267. will be taken.  Candidates should have skills relevant to one or more of
  268. those approaches.  The most important criteria are demonstrated scientific
  269. ability and creativity, and a deep interest in grappling with the details of
  270. neurobiology and the brain.
  271.  
  272. Past work has focused on modeling of development in visual cortex under
  273. Hebbian and similar ``correlation-based" rules of synaptic plasticity.  The
  274. goal has been to understand these rules in a general way that allows
  275. experimental predictions to be made.  Models have been formulated for the
  276. development of ocular dominance and orientation columns.  A few references
  277. are listed below.
  278.  
  279. Future work of the lab will extend the developmental modeling, and will also
  280. take various approaches to understanding mature cortical function.  These
  281. will include detailed biophysical modeling of visual cortical networks,
  282. many-cell recording from visual cortex, and use of a number of theoretical
  283. methods to guide and interpret this recording.  There will also be
  284. opportunities for theoretical forays in new directions, in particular in
  285. collaborations with the other Neuroscientists at UCSF.  Facilities to
  286. develop new experimental directions that are relevant to the lab's program,
  287. for example slice studies and use of optical methods, will also exist.
  288.  
  289. I will be part of the Keck Center for Systems Neuroscience at UCSF, which
  290. will be a very interactive environment for Systems Neurobiology.  Other
  291. members will include: 
  292. * Alan Basbaum (pain systems); 
  293. * Allison Doupe (song learning in songbirds); 
  294. * Steve Lisberger (oculomotor system); 
  295. * Michael Merzenich (adult cortical plasticity); 
  296. * Christof Schreiner (auditory system);
  297. * Michael Stryker (visual system, development and plasticity);
  298. Closely related faculty members include Roger Nicoll (hippocampus, LTP);
  299. Rob Malenka (hippocampus, LTP); Howard Fields (pain systems); and Henry
  300. Ralston (spinal cord and thalamus).
  301.  
  302. Please send a letter describing your interests and a C.V., and arrange to
  303. have three letters of recommendation sent to
  304.  
  305. Ken Miller
  306. Division of Biology 216-76
  307. Caltech
  308. Pasadena, CA 91125
  309. ken@cns.caltech.edu
  310.  
  311. Some References:
  312.  
  313. Miller, K.D. (1992). ``Models of Activity-Dependent Neural Development."
  314. Seminars in the Neurosciences, 4:61-73.
  315.  
  316. Miller, K.D. (1992).  ``Development of Orientation Columns Via Competition
  317. Between ON- and OFF-Center Inputs."  NeuroReport 3:73-76.  
  318.  
  319. MacKay, D.J.C. and K.D. Miller (1990).  ``Analysis of Linsker's simulations
  320. of Hebbian rules," Neural Computation 2:169-182.
  321.  
  322. Miller, K.D. (1990).  ``Correlation-based mechanisms of neural development,"
  323. in Neuroscience and Connectionist Theory, M.A. Gluck and D.E.  Rumelhart,
  324. Eds.  (Lawrence Erlbaum Associates, Hillsdale NJ), pp.  267-353.
  325.  
  326. Miller, K.D., J.B. Keller and M.P. Stryker (1989).  ``Ocular dominance
  327. column development: analysis and simulation," Science 245:605-615.
  328.  
  329. Miller, K.D., B. Chapman and M.P. Stryker (1989).  ``Responses of cells in
  330. cat visual cortex depend on NMDA receptors," Proc. Nat. Acad. Sci. USA
  331. 86:5183-5187.
  332.  
  333.  
  334. ------------------------------
  335.  
  336. Subject: Vision postdoc position
  337. From:    axon@cortex.rutgers.edu (Ralph Siegel)
  338. Date:    Tue, 01 Dec 92 18:45:54 -0500
  339.  
  340.  
  341.                              PLEASE POST
  342.  
  343. Postdoctoral position available in analysis of structure-from-motion.
  344. (visual psychophysics, electrophysiology, primate studies)
  345. in primates.
  346.  
  347. Contact: Ralph Siegel
  348.          Center for Molecular and Behavioral Neuroscience
  349.          Rutgers, The State University
  350.          197 University Avenue
  351.          Newark, NJ 07102
  352.          phone: 201-648-1080  x3261
  353.          fax:   201-648-1272
  354.         
  355.          email: axon@cortex.rutgers.edu
  356.  
  357.  
  358. Term:    24 months, beginning 2/1/93 or later
  359. Salary:  NIH levels
  360.  
  361. Please send statement of research interests, curriculum vitae, and
  362. names of three references.
  363.  
  364.  
  365. ------------------------------
  366.  
  367. Subject: (1) HKP review in neuroprose and (2) NIPS time series workshop program
  368. From:    Andreas Weigend <weigend@dendrite.cs.colorado.edu>
  369. Date:    Sun, 29 Nov 92 04:30:55 -0700
  370.  
  371. Two things: (1) a paper in neuroprose and (2) the program for a NIPS workshop.
  372.  
  373.  
  374. (1) Book review of Hertz-Krogh-Palmer in neuroprose:
  375.  
  376.     My 17-page book review (for Artificial Intelligence) is available via ftp,
  377.     ftp archive.cis.ohio-state.edu (anonymous, neuron)
  378.     cd pub/neuroprose 
  379.     binary
  380.     get weigend.hkp-review.ps.Z
  381.     (then uncompress and lpr)
  382.  
  383.  
  384. (2) The updated program for the time series NIPS workshop at Vail this Friday:
  385.  
  386.                 "Time Series Analysis and Predic____"
  387.  
  388.      John Moody          Mike Mozer              Andreas Weigend
  389.      moody@cse.ogi.edu   mozer@cs.colorado.edu   weigend@cs.colorado.edu
  390.  
  391.  --------------------------------------------------------------------------
  392. |    Several new techniques are now being applied to the problem of        |
  393. |    predicting the future behavior of a temporal sequence and deducing    |
  394. |    properties of the system that produced the time series. Both          |
  395. |    connectionist and non-connectionist techniques will be discussed.     |
  396. |    Issues include:                                                       |
  397. |      - algorithms and architectures,                                     |
  398. |      - model selection,                                                  |
  399. |      - performance measures,                                             |
  400. |      - iterated single-step vs direct multi-step prediction,             |
  401. |      - short term vs long term prediction,                               |
  402. |      - growth of error with prediction time,                             |
  403. |      - presence or absence of deterministic chaos,                       |
  404. |      - number of degrees of freedom of the system,                       |
  405. |      - amount of noise in the data,                                      |
  406. |      - robust prediction and estimation,                                 |
  407. |      - detection and classification of signals in noise, etc.            |
  408.  --------------------------------------------------------------------------
  409.  
  410.      Intended audience: connectionists active in time series analysis.
  411.  
  412.      Half the available time has been reserved for discussion and 
  413.      informal presentations. Lively audience participation is encouraged.
  414.  
  415.  
  416. 7:30-9:30  General Overviews (20 minutes each) and Discussion.
  417.  
  418.                 John MOODY: Time Series Modeling: Classical Methods and
  419.                             Nonlinear Generalizations
  420.                 Mike MOZER: Neural nets for temporal sequence processing
  421.  
  422.            Andreas WEIGEND: Ideas from the SFI competition for prediction 
  423.                             and analysis 
  424.  
  425. 4:30-6:30 Special Topics.   Talks (10-15 minutes each), 
  426.                             Discussion and Ad-Hoc Presentations.
  427.  
  428.  
  429. The rest of this message contains the abstracts of the talks.
  430.  
  431. John MOODY <moody@cse.ogi.edu>: 
  432.     I present an overview of classical linear timeseries modeling methods,
  433. including AR, MA, ARMA, ARIMA, and state-space representations, and discuss
  434. their strengths and weaknesses. I then describe how nonlinear
  435. generalizations of these models can be constructed.
  436.  
  437. Mike MOZER <mozer@cs.colorado.edu>:
  438.     I present a general taxonomy of neural net architectures for processing
  439. time-varying patterns. This taxonomy subsumes existing architectures in the
  440. literature, and points to several promising architectures that have yet to
  441. be examined.  I also discuss some experiments on predicting future values
  442. of a financial time series (US dollar--Swiss franc exchange rates) from the
  443. Santa Fe competition, and make suggestions for future work on this series.
  444.  
  445. Andreas WEIGEND <weigend@cs.colorado.edu>:
  446.     For prediction, I first present `low-pass embedding', a generalization
  447. of the usual delay line that corresponds to filtered delay coordinates. I 
  448. then focus on the estimation of prediction errors, including a generalization
  449. that predicts the evolution of the entire probability density function.
  450.     For analysis, I first present `deterministic vs stochastic plots' (DVM) 
  451. and then the information theoretic measure called `redundancy' that allows
  452. characterization of the underlying dynamic system without prediction.
  453.  
  454. Volker TRESP <tresp@inf21.zfe.siemens.de>:
  455.     Like many physiological processes, the blood glucose / insulin metabolism
  456. is highly nonlinear and involves multiple time scales and multi-dimensional
  457. interactions. We present a model of the blood glucose / insulin metabolism of
  458. a diabetic patient. The model is a hybrid "compartment" / neural network
  459. model and was trained with data from a diabetic patient using the dynamic
  460. backpropagation algorithm.  We demonstrate how our model can be used both for
  461. prediction of blood glucose levels and control of the patient's therapy.
  462. (Joint work with J. Moody and W.R. Delong)
  463.  
  464. William FINNOFF:
  465.     In financial and economic applications, data sets are typically small
  466. and noisy. The standard "black box" approach to network learning tends to
  467. overfit the training data and thus generalizes poorly. In this talk, we
  468. will discuss the microeconomic foundations of neural network model
  469. structures used to perform economic forecasting.  Further, we will describe
  470. a variety of extended regularization techniques used to prevent overfitting.
  471.  
  472. Eric WAN <wan@isl.stanford.edu>:
  473.     A neural network for time series prediction which uses Finite Impulse
  474. Response (FIR) linear filters to provide dynamic interconnectivity is
  475. presented.  The FIR network and associated training algorithm are reviewed.
  476. Examples from the Santa Fe competition in prediction and dynamic modeling
  477. of laboratory data and simulated chaotic time series are used to
  478. demonstrate the potentials of the approach.
  479.  
  480. Fernando PINEDA <fernando@aplcomm.jhuapl.edu>:
  481.     A fast and elegant numerical algorithm for estimating generalized
  482. dimensions and coarse grained mutual information will be be presented.
  483. The relationship to other more well known algorithms will be discussed.
  484. Examples from the Santa Fe time series analysis competition will be used
  485. to demonstrate how to use the algorithm for choosing delay times for
  486. delay coordinate embeddings.
  487.  
  488. Fu-Sheng TSUNG: <tsung@cs.ucsd.edu>:
  489.     When modeling a system that generates a time series, what is known about
  490. the system constrains the architecture of the model. As an example, I will
  491. present a recurrent network model of a lobster neural circuit, discuss what
  492. we learned from the model, where the model failed, and possible improvements
  493. from using a pair of sigmoids as a "near-oscillator" primitive for a neuron.
  494.  
  495.  
  496. ------------------------------
  497.  
  498. Subject: NIPS workshop - REAL biological computation
  499. From:    Jim Schwaber <schwaber@eplrx7.es.duPont.com>
  500. Date:    Wed, 25 Nov 92 10:11:01 -0500
  501.  
  502.  
  503. - -----------NIPS 92 WORKSHOP----------------------
  504.  
  505. Real Applications of Real Biological Circuits
  506.  
  507.                     or
  508.  
  509. "If back-prop is not enough how will we get more?"
  510.  
  511.                     or
  512.  
  513. "Is anybody really getting anywhere with biology?"
  514.  
  515. - ---------------------------------------------------
  516.  
  517. When:   Friday, Dec. 4th
  518. ====
  519.  
  520. Intended Audience:   Those interested in detailed biological modeling.
  521. ==================    Those interested in nonlinear control.
  522.                     Those interested in neuronal signal processing.
  523.                         Those interested in connecting the above.
  524.         
  525.  
  526. Organizers:
  527. ===========
  528. Richard Granger           Jim Schwaber
  529. granger@ics.uci.edu       schwaber@eplrx7.es.dupont.com
  530.  
  531. Agenda:
  532. =======  
  533.  
  534. Morning Session, 7:30 - 9:30, Brain Control Systems and Chemical
  535. - ---------------                               Process Control
  536.  
  537. Jim Schwaber            Brainstem reflexes as adaptive controllers
  538. Dupont
  539.  
  540. Babatunde Ogunnaike     Reverse engineering brain control systems
  541. DuPont
  542.  
  543. Frank Doyle             Neurons as nonlinear systems for control
  544. Purdue
  545.  
  546. John Hopfield           Discussant
  547. Caltech
  548.  
  549. Afternoon Session, 4:30 - 6:30, Real biological modeling, nonlinear
  550. - -----------------             systems and signal processing
  551.  
  552. Richard Granger         Signal processing in real neural systems:  is
  553. UC Irvine               it applicable?
  554.                         
  555. Gary Green              The single neuron as a nonlinear system - its
  556. Newcastle               Volterra kernels as described by neural networks.
  557.  
  558.  
  559. Program: 
  560. ========
  561.  
  562. We anticipate that the topic will generate several points of view.
  563. Thus, presenters will restrict themselves to a very, very few slides
  564. intended to make a point for discussion.  Given that there now are
  565. concrete examples of taking biological principles to application, we
  566. expect the discussion will center more on how, and at what level,
  567. rather than whether "reverse engineering the brain" is useful.
  568.  
  569. Granger (UC Irvine):
  570. - -------
  571. The architectures, performance rules and learning rules of most artificial
  572. neural networks are at odds with the anatomy and physiology of real
  573. biological neural circuitry.  For example, mammalian telencephelon
  574. (forebrain) is characterized by extremely sparse connectivity (~1-5%),
  575. almost entirely lacks dense recurrent connections, and has extensive lateral
  576. local circuit connections; inhibition is delayed-onset and relatively
  577. long-lasting (100s of milliseconds) compared to rapid-onset brief excitation
  578. (10s of milliseconds), and they are not interchangeable.  Excitatory
  579. connections learn, but there is very little evidence for plasticity in
  580. inhibitory connections.  Real synaptic plasticity rules are sensitive to
  581. temporal information, are not Hebbian, and do not contain "supervision"
  582. signals in any form related to those common in ANNs.
  583.  
  584. These discrepancies between natural and artificial NNs raise the question of
  585. whether such biological details are largely extraneous to the behavioral and
  586. computational utility of neural circuitry, or whether such properties may
  587. yield novel rules that confer useful computational abilities to networks
  588. that use them.  In this workshop we will explicitly analyze the power and
  589. utility of a range of novel algorithms derived from detailed biology, and
  590. illustrate specific industrial applicatons of these algorithms in the fields
  591. of process control and signal processing.
  592.  
  593. Ogunnaike (DuPont):
  594. - -----------
  595. REVERSE ENGINEERING BRAIN CONTROL SYSTEMS:
  596. EXPLORING THE POTENTIAL FOR APPLICATIONS IN CHEMICAL PROCESS CONTROL.
  597. =====================================================================
  598.  
  599. The main motivation for our efforts lies in the simple fact that there
  600. are remarkable analogies between the human body and the chemical
  601. process plant.  Furthermore, it is known that while the brain has been
  602. quite successful in performing its task as the central supervisor of
  603. intricate control systems operating under conditions which leave very
  604. little margin for error, the control computer in the chemical process
  605. plant has not been so successful.
  606.  
  607.  
  608. We have been concerned with seeking answers to the following question:  
  609.  
  610. ``Is it possible to ``reverse engineer'' a biological control system
  611. and use the understanding to develop novel approaches to chemical
  612. process control systems design and analysis?''
  613.  
  614. Our discussion will provide an overview of the tentative answers we
  615. have to date.  We will first provide a brief summary of the salient
  616. features and main problems of chemical process control; we will then
  617. introduce the biological control system under study (the baroreceptor
  618. vagal reflex); finally we will present an actual industrial process
  619. whose main features indicate that it may benefit from the knowledge
  620. garnered from the neurobiological studies.
  621.  
  622. Doyle (Purdue):
  623. - ------
  624. We are focusing our research on two levels:
  625. 1) Neuron level: investigating novel building blocks for process
  626. modeling applications which are motivated by realistic biological
  627. neurons.
  628. 2) Network Level: looking for novel approaches to nonlinear dynamic
  629. scheduling algorithms for process control and modeling (again,
  630. motivated by biological signal processing in the baroreceptor reflex).
  631.  
  632. Green (Newcastle):
  633. - -------
  634. I would love to tell the NIPS people about Volterra series,
  635. especially as we have now made a connection between neural
  636. networks, Volterra series and the differential geometric
  637. representation of networks. This allows us to say why one, two or
  638. more layers are necessary for a particular analytic problem. We can
  639. also say how to invert nets which are homeomorphic in their
  640. mappings. More importantly for us biologists we can turn the state
  641. equations of membrane currents, using neural networks into
  642. approximate Volterra kernels which I think (!) helps understand the
  643. dynamics. This gives a solution to the differential equations,
  644. albeit an approximate one in practical terms. The equations are
  645. invertible and therefore allow a formal link between current clamp
  646. and voltage clamp at the equation level. The method we have used to
  647. do this is of interest to chem. eng. people because we can use the
  648. same concepts in non-linear control. It appears at first glance
  649. that we can link the everyday use of neural networks to well
  650. established theory through a study of tangent spaces of networks.
  651. We construct a state space model of a plant, calculate the
  652. differential of the rate of change of output with respect to the
  653. input. Calculate the same for a neural network. Compare
  654. coefficients. The solution to the set of simultaneous equations for
  655. the coefficents produces a network which is formally equivalent to
  656. the solution of the original differential equation which defined
  657. the state equations. 
  658.  
  659.  
  660. We will be making the claim that analytic solutions of non-linear
  661. differential equations is possible using neural networks for
  662. some problems. For all other problems an approximate solution is
  663. possible but the architecture that must be used can be defined.
  664. Last I'll show how this is related to the old techniques using
  665. Volterra series and why the kernels and inverse transforms can be
  666. directly extracted from networks. I think it is a new method of
  667. solving what is a very old problem. All in 20 minutes !
  668.  
  669.  
  670. ------------------------------
  671.  
  672. End of Neuron Digest [Volume 10 Issue 22]
  673. *****************************************
  674.  
  675.